1
Oltre il Limite delle Conoscenze: Perché i Modelli Linguistici Grandi hanno Bisogno di Dati Esterni
AI011Lesson 6
00:00

Oltre il Limite delle Conoscenze

I modelli linguistici grandi sono potenti, ma soffrono di un limite fondamentale: il Limite delle Conoscenze. Per costruire sistemi AI affidabili, dobbiamo colmare il divario tra i dati di addestramento statici e le informazioni dinamiche del mondo reale.

1. Il Problema del Limite delle Conoscenze (Cosa)

I modelli linguistici grandi vengono addestrati su dataset enormi ma statici con una data di fine fissa (ad esempio, il limite di settembre 2021 di GPT-4). Di conseguenza, i modelli non possono rispondere a domande su eventi recenti, aggiornamenti software o dati privati creati dopo il periodo di addestramento.

2. Allucinazioni vs. Realtà (Perché)

Quando si chiede informazioni su dati sconosciuti o successivi al limite, i modelli spesso allucinano—creando fatti plausibili ma completamente falsi per soddisfare la richiesta. La soluzione è Fondazione: fornire un contesto verificabile in tempo reale da una base di conoscenza esterna prima che il modello generi una risposta.

3. RAG vs. Adattamento Finale (Come)

  • Adattamento Finale: Aggiornare i pesi interni del modello è computazionalmente costoso, lento e porta a conoscenze statiche che si aggiornano rapidamente.
  • RAG (Generazione Aumentata con Recupero): Estremamente conveniente dal punto di vista dei costi. Recupera automaticamente informazioni rilevanti e le inserisce nel prompt, garantendo che i dati siano aggiornati e consentendo aggiornamenti facili alla base di conoscenza senza dover riatraining.
La Lacuna dei Dati Privati
I modelli linguistici grandi non hanno accesso a manuali aziendali interni, rapporti finanziari o documenti riservati, a meno che non siano esplicitamente integrati tramite un flusso di recupero.
grounding_check.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why is Retrieval Augmented Generation (RAG) preferred over fine-tuning for updating an LLM's knowledge of daily news?
Fine-tuning prevents hallucinations entirely.
RAG is more cost-effective and provides up-to-date, verifiable context.
RAG permanently alters the model's internal weights.
Fine-tuning is faster to execute on a daily basis.
Question 2
What term describes an LLM's tendency to invent facts when it lacks information?
Grounding
Embedding
Hallucination
Tokenization
Challenge: Building a Support Bot
Apply RAG concepts to a real-world scenario.
You are building a support bot for a new product released today. The LLM you are using was trained two years ago.
Product Manual
Task 1
Identify the first step in the RAG pipeline to get the product manual into the system so the LLM can search it.
Solution:
Preprocessing (Cleaning and chunking the manual text into smaller, searchable segments before embedding).
Task 2
Define a "System Message" that forces the LLM to only use the provided documents and prevents hallucination.
Solution:
"Answer only using the provided context. If the answer is not in the context, state that you do not know."